Световни новини без цензура!
Алгоритмичната война поражда нови морални опасности
Снимка: ft.com
Financial Times | 2024-04-11 | 14:26:36

Алгоритмичната война поражда нови морални опасности

Един от най-лошите ни кошмари за изкуствения разсъдък е, че той ще разреши на роботи убийци да дебнат бойното поле, разпределяйки алгоритмично избрани гибел и заличаване. Но действителният свят е доста по-объркан от комиксите. Както демонстрира бомбардирането на Газа от Израел, може би се движим към по-невидими и подли форми на автоматизирано взимане на решения във войната.

Смразяващ отчет, оповестен предходната седмица от израелското онлайн списание +972, акцентира мощното разчитане на Израелските отбранителни сили при започване на войната на система за всеобщо генериране на цели, задействана от AI, известна като Lavender, която маркира 37 000 поданици на Газа като обвинени бойци на Хамас. В резултат на това мнозина бяха бомбардирани в домовете си, постоянно убивайки и фамилиите им.

Недоволни източници от израелското разузнаване, интервюирани от +972, споделиха, че системата има подобен % неточности от 10 %, като неправилно разпознава някои цели за ликвидиране. Те също по този начин твърдяха, че IDF ще разреши удар против младши бойец на Хамас, даже с риск от убиването на 15 до 20 цивилни. Това съответствие набъбна от 1 до повече от 100 за старши пълководец на Хамас. Човешкото наблюдаване на автоматизирания развой на идентифициране на задачата е минимално, от време на време продължава не повече от 20 секунди, настояват те. „ На процедура правилото на пропорция не съществуваше “, сподели един пред списанието.

IDF оспори няколко аспекта на този отчет. „ Противно на Хамас, IDF се ангажира с интернационалните закони и работи надлежно “, се споделя в изказване на IDF. „ Системата “ беше база данни, която човешките анализатори използваха, с цел да ревизират разпознатите цели. „ За всяка цел процедурите на IDF изискват осъществяване на самостоятелна оценка на предстоящото военно преимущество и предстоящите съпътстващи вреди. “

Това, което е несъмнено, е ужасяващата загуба на граждански живот в Газа, настъпила през първите седмици на война след убийствената офанзива на Хамас против Израел на 7 октомври. Според палестинските управляващи 14 800 души, в това число към 6 000 деца и 4 000 дами, са били убити в Газа преди краткотрайното преустановяване на огъня на 24 ноември, когато лавандулата е била най-използвана.

Много аспекти на израелско-газанската покруса са неповторими, родени от заплетената история, демография и география на района. Но Израел също е една от най-напредналите в софтуерно отношение народи в света и методът, по който води война, подхранва световния спор за военните използва на ИИ. Този спор опълчва по този начин наречените реалисти против моралните абсолютисти.

Реалистите настояват, че AI е технология с двойна приложимост, която може да бъде разгърната по безчет способи както за положително, по този начин и за неприятно. Малцина, да вземем за пример, биха оспорили потреблението му в отбранителни оръжия, като израелския Железен купол, който прихвана голям брой ракетни офанзиви от Газа. Но системата Lavender наподобява е съдействала за „ трагично несъразмерен “ % на съпътстващи вреди, които са морално неоправдани, споделя Том Симпсън, някогашен Кралски морски пехотинец, в този момент професор по философия в Оксфордския университет.

И въпреки всичко Симпсън се опълчва на цялостната възбрана на смъртоносните самостоятелни оръжия (LAWS), както упорстват някои деятели, като се има поради вероятността по-малко спазващите закона враждебни страни към момента да ги употребяват. Прилагането на такава възбрана би основало „ ужасяваща стратегическа накърнимост “. „ Ако демократичните демокрации си коства да бъдат защитавани, те би трябвало да имат най-ефективните принадлежности “, споделя ми той.

Роботите, като бойците, постоянно са инструктирани да правят скучната, мръсна и рискова работа. „ Ако можем да похарчим богатство, с цел да спасим кръв, би трябвало да го създадем. “

Но моралните абсолютисти обрисуват ясна алена линия при възлагането на всевъзможни отговорности на живот и гибел на податливи на неточности машини. Опитът на системата Lavender демонстрира наклонността към предоверяване на компютъра. Той също по този начин акцентира компликацията да се държат „ хората в течение “ в разгара на войната.

Мери Елън О’Конъл, професор по право в университета на Нотр Дам, която поддържа възбраната на ЗАКОНИТЕ, споделя, че реалистите са склонни да избират проекцията на власт пред отбраната на върховенството на закона. Но тя ми споделя, че за западните демокрации ефикасната власт се основава на върховенството на закона. „ Съединени американски щати завоюваха единствено една война след Втората международна война и това беше освобождението на Кувейт. Това беше единствената война, която сме водили законно в цялостно сходство с Хартата на Организация на обединените нации “, споделя тя.

Това също е реален мотив, който би трябвало да откри отзив в Израел, както и в Съединени американски щати. Войниците би трябвало да имат вяра, че се борят за обективна идея по честен метод. Тези, които приказваха със списание +972, ясно слагат под въпрос метода, по който Израел води войната. Човечеството би трябвало да води технологията, а не противоположното.


Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!